A proposito di AI…

Dialogo sull’intelligenza artificiale fra un tecnico e un umanista

[Questo lavoro è diviso in due parti: in questo primo dialogo si delineano i tratti dello scenario attuale partendo dai dati storici; nella seconda parte si approfondirà la questione del confronto tra le macchine “AI” e gli Esseri umani facendo riferimento soprattutto ai fondamenti della loro diversa natura.]

PRIMA PARTE – Lo scenario
________________________________________________

[AI (o A.I.) è l’acronimo inglese per “Artificial Intelligence”, cioè Intelligenza Atificiale. Abbiamo usato questo, invece dell’italiano “IA”, perché è quello più utilizzato abitualmente.]

Gli attori
ANDREA FIASCHI: E’ un giovane laureato in Architettura / Design con una grande passione per le tecnologie digitali; queste gli sono servite, ovviamente, per i suoi studi ma su di esse ha anche accumulato una cultura impressionante.

ROBERTO MAFFEI: E’ un “senior” da tutti i punti di vista i cui vasti interessi sono confluiti, negli ultimi 15 anni, nello studio dei fondamenti del comportamento umano, sviluppato con il Gruppo di ricerca ALBERT all’interno dell’Associazione non-profit ARPA-Firenze APS, della quale fa parte. Tra questi fondamenti è compresa la questione dell’intelligenza “naturale”.

________________________________________________

“Artificial intelligence is not, by definition, simulation of human intelligence”.

John McCarthy
fondatore dell’AI.

[Andrea]

Si potrebbe essere portati a pensare che l’origine della storia dell’intelligenza artificiale sia piuttosto recente. Essa, invece, inizia molti secoli fa e già nell’antica Grecia, oltre al mito di Talos, abbiamo evidenze che fossero in uso computer analogici come quello rinvenuto nel relitto navale dell’isola di Anticitera.

Già René Descartes disquisiva sulle proprietà di una macchina logica e già alla Corte del Re Sole si parlava di “automaton” in grado di giocare a carte e tenere conversazioni con gli ospiti. Ma, per convenzione, possiamo dire che la storia in questione inizia con Alan Turing negli anni ‘40; in quel caso, egli stava cercando di decrittare le comunicazioni cifrate naziste nell’ambito del progetto segreto Ultra, a Bletchley Park, presso Londra. Il team di decrittatori di Enigma (la macchina criptografica tedesca) costruì appositamente un computer elettromeccanico chiamato in codice “The Bomb”, che però si basava su un metodo che oggi possiamo definire “brute force”, quindi il più arcaico e rozzo.

Il metodo e la macchina costituivano una grande innovazione per l’epoca e, parallelamente, negli Stati Uniti si sviluppava ENIAC. Il primo computer digitale completamente basato su valvole termoioniche si sarebbe rivelato molto utile per calcolare piani di intercettazione per bombardieri in avvicinamento tramite un sistema di previsione del tiro dell’artiglieria contraerea. Da sempre i primi computer sono stati un caposaldo nel calcolo statistico, fondamentale per la costruzione delle prime bombe atomiche. Gli stessi calcoli, fatti a mano, avrebbero richiesto un tempo ben più considerevole. Ovviamente, si trattava di apparecchiature costosissime e coperte da segreto ma questa caratteristica resta una costante anche al giorno d’oggi.

Alan Turing, nei primi anni cinquanta, portando avanti lo sviluppo dei computer elabora quello che lui chiama “the imitation game”, che si basa su un gioco di società: due soggetti, che non si vedono tra loro, si scambiano dei messaggi che vengono intercettati da un terzo soggetto.
Quest’ultimo deve indovinare se uno degli interlocutori sia uomo o donna e questo viene reinterpretato nel test di Turing per cui si deve indovinare se uno dei due interlocutori sia o meno un computer. Ironia crudele, il brillante scienziato sarà incriminato per omosessualità e morirà suicida dando un morso ad una mela avvelenata. Le sue ricerche segrete e la sua persona non incontreranno il meritato riconoscimento pubblico per diversi decenni.

[Roberto]

Innanzitutto, mi pare che tu confermi che la storia dell’AI è strettamente intrecciata con quella del computer. E, a tale proposito, due integrazioni per chi non sapesse di cosa si parla: Talo era un gigante di bronzo fabbricato da Efesto per Zeus e posto a guardia della Creta di Minosse (1). L’espressione “meccanismo di Anticitera” è riferita ai resti di uno strumento ancora in larga parte misterioso rinvenuto in un antico relitto al largo dell’isola greca di Antikythera(2) ; si pensa che, più che un “calcolatore” in senso moderno, fosse un planetario e che servisse a rappresentare la posizione della luna e dei 5 pianeti del Sistema solare allora conosciuti.

Il Seicento francese (Descartes) fu, in effetti, un’epoca d’oro per i tentativi di costruire automi meccanici che imitavano esseri viventi; nel Settecento uno dei più celebri automi fu l’anatra di Vaucanson(3) . In nessuno di questi tentativi, tuttavia, si arrivò non solo a imitare, ma anche solo a riprodurre il linguaggio umano.

Su ENIAC: Electronic Numerical Integrator and Computer, macchina calcolatrice (questa sì, proprio “calcolatrice”) meno potente di un Commodore 64 ma che occupava un’intera, enorme stanza. Poiché le valvole termoioniche si guastavano di frequente e ce n’erano tantissime in ENIAC, una persona girava in continuazione per la stanza portando un cesto pieno di queste valvole e andando a sostituirle dove occorreva (delle spie luminose indicavano dove)(4).

Una precisazione sulla storia dei calcoli relativi alla bomba atomica: la prima bomba atomica (la bomba “A”, a fissione nucleare) fu costruita calcolando a mano. A Los Alamos, il laboratorio segreto dove la si stava studiando, Richard Feynman (grande fisico, Premio Nobel 1965 con Tomonaga e Schwinger, singolare personaggio suonatore di “bongos” e figurante al Carnevale di Rio de Janeiro) dirigeva squadre di “calcolatori umani”, cioè giovani fisici e matematici impegnati ad eseguire calcoli a mano, ripetuti più volte per motivi di controllo. Feynman è una figura straordinaria per tanti motivi; per esempio scassinava abilmente le serrature degli archivi dei colleghi ma per motivi nobili: testava i sistemi di sicurezza. E fece parte della Commissione Rogers, che indagò sul disastro (1986) della navetta spaziale “Challenger”, opponendosi alle frettolose e conformiste conclusioni che essa voleva trarre (presentò una “controrelazione”). Una figura davvero straordinaria ma sulla quale non mi soffermerò oltre(5).

Quella per la quale si dovettero introdurre i calcolatori fu la bomba H (la bomba all’idrogeno, cioè a fusione nucleare), costruita nel dopoguerra; per quella, con i calcoli a mano non ci si sarebbe arrivati, nemmeno con le squadre di Feynman. Il fisico ungherese Edward Teller, emigrato negli USA per via delle persecuzioni naziste, la voleva a tutti i costi; il fisico statunitense Julius Robert Oppenheimer, pare per i sensi di colpa legati a Hiroshima e Nagasaki, lo ostacolò proprio cercando di impedirgli l’uso dei calcolatori. Entrò pesantemente in mezzo la politica (erano gli anni del maccartismo), Oppenheimer fu indagato, Teller ebbe accesso ai calcolatori e l’umanità si dotò della bomba H.

Su Turing aggiungo solo un triste e affettuoso pensiero per questa altra grande figura di scienziato, dalla quale l’umanità ebbe tanto e alla quale dette così poco.

[Andrea]

Con Turing, i semi sono stati gettati e Vannevar Bush sviluppa contestualmente il concetto del “Memex”, che tratta di un personal computer collegato ad una rete distribuita. Come descritto, dal punto di vista concettuale, l’intelligenza artificiale non è nulla di così recente. Il problema è uguale in tutte le epoche: abbiamo bisogno di strumenti per soddisfare le nostre necessità e c’è sempre stata una penuria di hardware disponibile. Nel corso della storia, moltissimi visionari si sono poi scontrati con la fattibilità industriale ed economica.

L’elettronica ha promesso un drastico aumento delle possibilità e già negli anni 50 si inizia a parlare di macchina di von Neumann. Il nome è quello del un grande scienziato e matematico immigrato in America. Egli ipotizza un nastro infinito sul quale vengono recuperate, elaborate e registrate le informazioni e su questo concetto si fonda la maggior parte dei calcolatori utilizzati fino ad oggi.

Le macchine elettroniche hanno il vantaggio di poter compiere molte operazioni in breve tempo ma si tratta sempre di operazioni semplici, persino semplicissime. Per dirlo con una battuta: il computer è uno stupido velocissimo. Il vantaggio è quello di avere a propria disposizione migliaia di scimmie che compiono operazioni semplici e noi possiamo dirigerne le premesse e ricevere i risultati. La caratteristica fondamentale delle architetture Von Neumann è che sono perfettamente logiche. Questo favorisce la precisione, rispetto alla velocità.

La struttura del cervello, invece, favorisce la rapidità di reazione e mette in secondo piano la riflessione. Per decenni i ricercatori informatici hanno cercato di realizzare architetture diverse, basate sui circuiti neurali. Oppure hanno cercato di integrare la tradizionale Von Neumann con moduli di calcolo parallelo per aumentare a dismisura la velocità disponibile. E’ importante notare che gli imperi della storia si sono basati su schiavi, servi della gleba, manodopera altamente generica e non formata. Lo sviluppo di procedure semplici, associato ad un rigoroso controllo degli esecutori, è sempre stato fondamentale. Ecco perché già all’epoca di John Ludd, la prima industrializzazione, le masse hanno iniziato a temere lo sviluppo delle macchine. In ultima analisi, la maggior parte dei processi compiuti da operai sono estremamente semplici e ripetitivi, senza attinenza col risultato finale.

Proprio questo rappresenta il campo nel quale la macchina eccelle. Quando si tratta di andare a ricercare moli di dati o compiere operazioni semplici e ripetitive, l’uomo viene certamente sostituito da qualcosa di più efficiente e potente. Proprio qui risiede il punto cruciale. Le macchine “pensanti” sono sempre state progettate per operazioni circoscritte come la guida dei missili, il puntamento dei cannoni o, in ambito civile, l’indirizzamento delle telefonate o la guida dei torni a controllo numerico.

[Roberto]

Una caratteristica della macchina di Von Neumann era quella di registrare sul nastro infinito non solo i dati sui quali effettuare le operazioni, ma anche le istruzioni; è così o mi ricordo male? Ho un ricordo ma un po’ vago, non preciso, sul fatto che di questo (le istruzioni registrate insieme ai dati) si era occupato anche Turing.

[A.] Esattamente, si tratta di un concetto astratto che possiamo riportare alla data di nascita dei computer elettronici. In pratica, non si è mai utilizzato il nastro infinito, anche perché impossibile da realizzare, bensì si è usata una quantità di registri di memoria. Dagli anni ’80, per via della diffusione dei personal computer, l’architettura che piu’ si avvicina al concetto è la 8086 (detta poi x86) dall’omonimo processore Intel. La quasi totalità dei PC si basa ancora oggi su evoluzioni della stessa ed è retro-compatibile con software ormai archeologico. Proprio per mantenere questa estrema compatibilità, unico caso nel mondo informatico, si è cristallizzata l’innovazione. Le rivoluzioni, finora, sono tutte fallite. D’altro canto, proprio quando sembrava che il «carrozzone» x86 avesse scalzato ogni avversario dal panorama della computazione, i dispositivi mobili ed i sistemi «di gioco» hanno cambiato il paradigma ormai stagnante.

[R.] A proposito delle architetture diverse ricercate dagli informatici, dove sta la differenza fondamentale con quelle di tipo “Von Neumann” puro? Si tratta della questione di elaborare in sequenza contro l’elaborazione in parallelo? E le reti neurali, nel tentativo di emulare il cervello umano, sono elaborazioni sequenziali di una rete che vengono, alla fine, passate a una rete successiva (una specie di elaborazione “a strati” invece che in parallelo)? Ci puoi chiarire questo punto?

[A.] Si, effettivamente è così. Il difetto fondamentale delle «Von Neumann» è l’agire in serie. Questo fa preferire la precisione alla velocità. Con le GPU ed NPU, invece, si possono eseguire molti più calcoli meno precisi, ma in parallelo. È questo che rende possibile elaborare le grandi moli di dati che vanno ad alimentare gli algoritmi di intelligenza artificiale generativa. Un altro aspetto da considerare è l’efficienza energetica. Se l’informatica «classica» va a coordinare le operazioni con cicli di tempo (clock) ben scanditi e più o meno fissi, le reti neurali si basano su «firing» asincroni. Insomma, più connessioni abbiamo, più il consumo sale. Il nostro cervello riesce a sviluppare numeri esorbitanti di connessioni con un fabbisogno energetico veramente esiguo. Ecco che gli sviluppi ingegneristici si dirigono sempre più in quella direzione.

[R.] A proposito: le “migliaia di scimmie che compiono operazioni semplici” sono la tua metafora per indicare le porte logiche? Insomma i singoli componenti dei chip? O cosa?

[A.] Semplicemente, per indicare le operazioni svolte. Come tu citavi il team di computazione «a mano» di Feynman, alla fine si tratta di quante operazioni su riescono a portare a termine. Questo è il fine. Il fatto che si impieghino organismi biologici o macchine elettroniche con una certa architettura rappresenta solo il mezzo.

[R.] Sulle comparazioni fra modo di funzionare di un computer e di un cervello umano sono d’accordo che sono differenti; però il tuo discorso sembra dire che è la macchina che si prende il tempo di “riflettere” mentre l’essere umano privilegia la reazione rapida invece della riflessione. Non entro nel merito perché ne parlerò espressamente nella seconda parte di questo dialogo, ma ci puoi chiarire il tuo pensiero?.

[A.] Penso di non essere manicheo in questo. Come il cervello è diviso in certe aree che svolgono determinate funzioni, così il computing sta diventando più eterogeneo, ibrido. Alla fine si tratta di algoritmi. In certi casi servono la precisione ed il controllo, in altri sono preferibili la rapidità ed i riflessi. La nostra evoluzione ci ha premiati tramite lo sviluppo di entrambi gli aspetti. Le architetture microelettroniche sono prodotti dell’ingegno umano, così come la programmazione è figlia del pensiero. La chiave di volta è che, finalmente, anche l’industria informatica sta cercando di sviluppare sistemi più equilibrati ed efficienti in entrambi i casi.

[Andrea]

Esiste però una branca della cibernetica che ha cercato di sviluppare repliche di pensiero umano. Già nel 1958 si sviluppa il Perceptron. Ma la ricerca in questione sembra un vicolo cieco ed i finanziamenti si esauriscono per decenni. Un esempio decisivo è Eliza di Weizenbaum, del 1964. Si trattava di un chatbot, un’interfaccia linguistica, ed era basato su una terapia psicoanalitica rogersiana. In questa corrente terapeutica, l’operatore andava a fare da specchio alle esternazioni del paziente con frasi più o meno precostituite e, quando non sapeva cosa rispondere, si andavano ad inserire delle battute.

Ecco che Weizenbaum, l’ideatore, è rimasto a dir poco sconcertato dallo scoprire che non malati mentali, bensì sperimentatori che si sono trovati a relazionarsi con Eliza si sono affascinanti a tal punto da considerarla una persona. Essi hanno persino chiesto momenti privati “faccia in faccia” col computer ed hanno attribuito reazioni emotive alla macchina, a tal punto da considerarla un sostituto di un essere umano. Weizenbaum è rimasto così colpito da queste esternazioni impreviste che l’interesse nella ricerca sui chatbot si è in qualche modo rallentata per decenni.

Questo “inverno dell’intelligenza artificiale” non ha impedito al dipartimento della difesa USA, tramite la DARPA(6), di sviluppare sistemi sempre più potenti e rendere possibile la realizzazione di un sistema di guida per missili da crociera. Il TERCOM si basava su di un altimetro radar che andava a comparare i dati di altitudine rilevati durante il volo con una mappa tridimensionale del campo di battaglia caricata in memoria nell’apparecchio. Il risultato di questo sviluppo è quello che noi oggi utilizziamo tutti i giorni come Google Maps. Ciò che sta alla base della guida autonoma e dei simulatori di volo è una tecnologia di rappresentazione di un ambiente tridimensionale in modo abbastanza veloce e parallelo.

Non è un caso se negli anni 90 abbiamo avuto uno sviluppo fenomenale di macchine diverse da quelle Von Neumann, anche se poi si tratterà perlopiù di moduli integrati in essa. In quegli anni si diffondono chip di una classe diversa, cioè acceleratori tridimensionali. Questi ultimi oggi sono impiegati dappertutto, sia nelle consolle per i videogames che, appunto, nei cervelli elettronici delle armi più sofisticate. Esiste tutto un filone di computer dal calcolo altamente parallelo, quindi non più basato solamente sulla logica della striscia infinita. Laddove la necessità più impellente risulta quella di avere dati interpretati in tempo reale, si è puntato sullo sviluppo di una nuova categoria di macchine.

Abbiamo visto le Thinking Machines della serie CM, le RISC della Sun ed una pletora di altri prodotti ormai persi per via del fallimento dei loro produttori. Oggi che Nvidia la fa da padrone nel settore, troviamo anche nei nostri personal computer e cellulari le cosiddette graphic processing units. Assistiamo al fatto che la G nell’acronimo GPU si è trasformata in “general” e che tali processori vengano utilizzati per accelerare gli algoritmi di intelligenza artificiale. Da qualche anno, è sbocciata anche tutta una nuova categoria di chip. I neural processing unit (NPU), atti appositamente a velocizzare ancor più i succitati algoritmi e potenziare i motori di inferenza.

Nelle NPU, diffuse soprattutto negli smartphone, si cerca di imitare il funzionamento delle reti neurali, quindi del cervello. Queste imitazioni, svolte su larga scala principalmente nei supercomputer, restano comunque in una prospettiva puramente logica e statistica.
Non ci spostiamo molto da ciò che l’NSA utilizzava nei sistemi di calcolo su base neurale negli anni ottanta con le già citate Thinking Machines.

[Roberto]

Qui ti sei espresso in modo un po’ troppo tecnico, bisogna che ti chieda alcuni chiarimenti. Eliza me la ricordo; cos’era il “Perceptron”? E cos’erano le Thinking Machines? Comunque nessuna di queste applicazioni ha resistito al tempo, non è così?

[A.] Ho cercato di dare un panorama ampio, anche se certamente non esaustivo. Ho anche cercato di portare qualche aneddoto o aspetto non proprio in evidenza quando si fa un po’ di storia sull’argomento. Il Perceptron era un tentativo di realizzare una macchina assolutamente diversa dalle «Von Neumann», a tal punto da simulare il comportamento dei neuroni. Per il 1958 era una grande idea, fermata nella realizzazione dalle risorse disponibili. Altro che nastro infinito!| Quando si parla di hardware, siamo sempre in difetto rispetto alla Natura. Persino oggi siamo ben lontani da poter realizzare una simulazione del cervello umano. La Thinking Machines Corporation era una società di supercomputer che realizzò cinque serie di Connection Machine. In contrapposizione alla tradizionale architettura di von Neumann, si trattava di computer a elevato parallelismo, basati su una topologia a ipercubo che collegava i vari nodi. In definitiva, qualcosa di molto avanzato ma anche molto costoso e fondamentalmente incompatibile con il resto del panorama. Peccato sia stato, al solito, un fallimento commerciale.

[R.] Dunque negli anni ‘90 c’è stata un’evoluzione spettacolare di macchine diverse da quelle di Von Neumann ma, in realtà, non era una vera rivoluzione perché si trattava di moduli integrati in macchine di Von Neumann. Ma qui arrivano, finalmente, processori di tipo nuovo, altamente paralleli… E’ così? Ma ora dovresti chiarirci il nesso tra le “thinking machines” e Nvidia (che è un produttore di microchip, se non ricordo male).

[A.] Si, negli anni ’90 abbiamo visto arrivare la rivoluzione della grafica tridimensionale. Chi non ricorda il film Toy Story? Bene, era stato prodotto su computer della Sun Microsystems. Questa mitica azienda aveva rilevato Thinking Machines Corporation e, insieme a Silicon Graphics, aveva veramente mostrato la via per uno sviluppo considerevole delle possibilità. Nvidia e Ati hanno raccolto un’eredità che, altrimenti, sarebbe andata perduta e hanno sviluppato acceleratori grafici (Graphics Processing Unit) che poi sono stati integrati con le architetture x86 di larga diffusione commerciale. Soltanto chi ha cercato di affiancarsi a ciò che già esisteva, senza tentare di stravolgerlo, è riuscito a sopravvivere. Altro discorso sono gli smartphones. Per ovviare ai problemi di consumo, questi si sono basati su ARM, che è architettura Harvard. In pratica, però, niente è puro e stiamo assistendo ad una grande varietà di sistemi ibridi.

[R.] E da qualche anno c’è qualcosa di totalmente nuovo, le NPU, che cercano di imitare apertamente le reti neurali del cervello umano. Che vuol dire “Queste imitazioni, svolte su larga scala principalmente nei supercomputer, restano comunque in una prospettiva puramente logica e statistica”? Qual è il punto, alla fine?

[A.] Le NPU sono simili alle GPU (N sta per neural, G adesso sta per general). Sempre più connessioni a basso consumo energetico, sempre più dati disponibili per gli algoritmi di inferenza. Il punto è che alla fine conta il risultato. Se una macchina riesce a fornirlo prima e meglio rispetto ad un uomo, sarà preferibile usare la prima. Non si tratta di sostituire il cervello umano, ma di sviluppare qualcosa che fornisca vantaggi rispetto allo status quo. A prescindere dalle logiche e dalle tecniche di funzionamento.

[Andrea]

Il filone di ricerca non è andato ad azzerarsi col fallimento delle aziende produttrici, i semi, anche in questo caso, erano piantati e potremmo dire che, alla lunga, Nvidia abbia raccolto il testimone. I sistemi AI Jetson dell’azienda taiwanese sono stati ritrovati anche nei droni abbattuti in Ucraina durante il conflitto con la Russia. Allo stesso modo, IBM ha sviluppato tutta una serie di propri chip Power e già nel 1997 sono riusciti a battere il campione di scacchi Kasparov, per vincere il gioco a premi Jeopardy nel 2010 con l’ormai diffuso sistema Watson.

Da Google DeepMind arriverà anche la vittoria di una macchina contro un essere umano a Go, un gioco cinese molto più complesso. Ciò decreterà il successo delle tensor processing unit. Come sarà chiaro, il vantaggio risiede nell’utilizzare macchine diverse da quelle universalmente conosciute e diffuse nella popolazione. Proprio negli anni ‘20, c’è un grande fiorire di Tensor cores e chip specifici, sviluppati appositamente “in casa” come Graviton di Amazon o T-Head di Alibaba. Persino Apple si è lanciata nella produzione in proprio con i suoi Silicon, mentre emergono nuove realtà come Tenstorrent.

In pratica, la disponibilità di hardware più potenti e soprattutto più simili al comportamento e alla struttura del del cervello umano porta alla ribalta del palcoscenico mediatico argomenti che erano rimasti per decenni tra i circoli degli esperti. Sotto il “cofano” di ChatGPT di OpenAI, come in molti altri sistemi di elaborazione di linguaggio naturale o di immagini, ci sono quindi macchine capaci di elaborare una quantità molto più alta di informazioni rispetto al passato. Il problema è che gli algoritmi, benché sempre più complessi e con nomi altisonanti come Transformer, nel caso di OpenAI, sono sempre gli stessi. Backpropagation, feedforward, recurring, convolutional. Resta il fatto che tutti questi servizi e funzionalità si basano su di una prospettiva prettamente logica quindi, per certi versi, proprio l’opposto di un pensiero umano che è influenzato continuamente sia dalla relazione del suo corpo nell’ambiente, sia dalle condizioni dell’ambiente stesso. Per non parlare poi delle emozioni che influenzano continuamente i processi mentali naturali.

In conclusione, una valutazione prettamente logica e razionale è molto al di là delle capacità umane, per cui queste serie di meravigliose macchine vanno ad integrare il pensiero ma certamente non si preparano a sostituirlo.

[Roberto]

Qui siamo sul punto cruciale, proviamo a procedere con ordine. Le NPU sono il centro della produzione attuale, quelle sulle quali i fabbricanti di chip stanno investendo, è così? TUTTI i fabbricanti di chip? Gli AI Jetson di Nvidia, I chip Power di IBM, Graviton di Amazon, T-Head di Alibaba, Silicon di Apple e i prodotti di nuove realtà come Tensotorrent sono la punta di lancia della produzione di chip? Quindi macchine nuove, con velocità inimmaginabili solo pochi anni fa e capaci di elaborare masse di dati di proporzioni inaudite? E’ questo che sta alla base di Chat GPT 4?

[A.] Sono stato un po’ confusivo, mi sa. Stiamo assistendo ad un momento storico molto interessante. Gli anni ’20 vedono un fermento di soluzioni tecniche e sperimentazioni come non si vedeva da decenni. Non si tratta di fare a gara a chi realizza la NPU più potente ma ci sono molti tentativi e pareri discordanti su come raggiungere la maggiore efficienza e produttività possibili. Dopo troppi anni di sviluppo con contagocce, molte grandi aziende stanno cercando di sbaragliare la concorrenza con sistemi integrati tra varie componenti sia hardware che software. I nomi citati sono certamente tra le punte di lancia della produzione di chip, più strategica e rilevante che mai, ma non si tratta di macchine equivalenti o direttamente comparabili. Alla fine, sì, si tratta di trovare sistemi sempre migliori per elaborare masse di dati di proporzioni senza precedenti e la crescita dei volumi in gioco sembra poter continuare ancora per molti anni. Nella fattispecie di OpenAi si parla, al momento, di un numero imprecisato di GPU Nvidia A100 e svariati Terabyte(7) di RAM. Macchine di non facile reperibilità e con altissimi costi di gestione per realtà anche medie, figuriamoci le piccole.

[R.] Ma tu dici che queste macchine non sono solo più potenti ma “soprattutto più simili al comportamento e alla struttura del cervello umano”; che significa, esattamente? Perché al contempo tu dici che, alla fine, sotto tutto questo e i nomi altisonanti, ci sono processi di tipo tradizionale: backpropagation, feedforward, recurring, convolutional. Ci puoi spiegare il significato di questi termini e (per quanto possibile) il funzionamento dei chip neurali? Tra parentesi mi ricordo che anche la sconfitta (almeno la prima) di un campione di scacchi da parte di un computer si basò su un metodo “brute force”, cioè l’esame di TUTTE le possibilità.

[A.] Come dicevamo prima, si tratta principalmente di un discorso di scala. Un cervello umano è incredibilmente efficiente dal punto di vista energetico e pieno di connessioni ad un livello di complicazione tale da non essere ancora replicabile artificialmente. Sarà ancora così per molto tempo, perché, a livello industriale, nemmeno ci si pone la questione. Quello che reti neurali e NPU fanno è solamente prendere spunto dai neuroni per aumentare l’efficienza dei calcolatori elettronici. Il punto focale, invece, sta tutto nella quantità di transistor che si possono inserire in un dato chip. Per questo si è investito tantissimo nello sviluppo di nuovi processi di miniaturizzazione. Stiamo arrivando all’era dell’Angstrom(8) e solo pochissimi produttori al mondo possono permettersi tali sforzi tecnologici. Si fa un gran parlare di nuovi processori, possibilità mirabolanti, ma alla fine queste macchine devono essere concretamente prodotte. La stragrande maggioranza delle aziende leader nel settore in tutto il mondo fa riferimento alla taiwanese TSMC. Ecco che si può leggere tutta la questione dal punto di vista strategico. Chi controlla Taiwan, controlla lo sviluppo del mondo intero. Eviterei di spiegare il funzionamento dei vari algoritmi, che sarebbe confondente e non esaustivo, per concludere con un punto di vista più politico ed economico.
I computer che svolgono operazioni logiche, algoritmi, possono essere chiamati o meno sistemi ad intelligenza artificiale. Questa distinzione, tra cosa sia AI e cosa no, rimane del tutto aleatoria ed arbitraria. Al di la’ delle mode e le “buzzword”, resta il fatto che la produzione in massa di dispositivi elettronici ad alta tecnologia fornisce vantaggi forse persino incalcolabili a chi li possiede.

[R.] Concludi che le macchine, anche quelle più recenti, sono, comunque, solo logiche mentre il pensiero umano non si sviluppa su basi puramente logiche; ma tu pensi, quindi, che l’AI sia superiore o, comunque, migliore del pensiero umano? Dovremmo assomigliare a Macchine AI per vivere meglio?

[A.] Come ho cercato di spiegare, i calcolatori sono stati sviluppati da menti umane che avevano delle idee. Evidentemente, il pensiero umano è molto più complesso di quello che possiamo ritrovare negli altri esseri viventi o nelle macchine che abbiamo costruito. Ciò che ci ha reso la specie più forte e potente sul pianeta Terra è stata la capacità di utilizzare al meglio le risorse che ci siamo trovati intorno. L’ intelligenza artificiale non è che un altro strumento che abbiamo realizzato per fare cose delle quali avevamo bisogno. Non si tratta quindi di inferiorità o superiorità, come non si tratta di ciò in relazione ad una pietra scheggiata. I computer svolgono operazioni logiche in modo più veloce e preciso rispetto ad un umano. Ma sono anche molto più limitati sotto tanti altri punti di vista. Considerando che la spiritualità, la religione, la psicologia ci suggeriscono che esistono aspetti della conoscenza e della consapevolezza che ancora non riusciamo comprendere, mi sembra superbo voler asserire la superiorità di un modo di pensare rispetto ad un altro. In conclusione, non si tratta di dover assomigliare a macchine pensanti ma di riuscire a utilizzarle al meglio. Esse funzionano in un modo specifico a loro e rappresentano un nuovo fenomenale strumento a nostra disposizione. Il come e il cosa, immagino, lo dirà la Storia.

[R.] Provo a trarre alcune conclusioni da ciò che hai detto, Andrea. Tu ci hai ricordato che, in queste società industriali a modello capitalista, una storia di idee è sempre anche una storia di prodotti e di industrie. Questo è un aspetto che, tipicamente, sfugge al grande pubblico e tu lo hai delineato per noi, cosa della quale ti ringrazio. Il fatto che le idee si affermino più in base alle circostanze storiche che alla loro qualità intrinseca è uno standard nella storia dell’umanità(9). Dunque, tornando sulle idee, non sapremo mai se, tra i progetti falliti, ci fossero idee migliori di quelle che si sono affermate sul mercato, ma i fatti sono quelli che hai ricordato(10).

Sullo sfondo di tutto ciò rimane la questione del rapporto che c’è fra l’AI, l’Intelligenza Artificiale, e quella che potremmo chiamare l’Intelligenza Naturale degli esseri umani. Tu hai chiaramente indicato che queste due intelligenze sono diverse ma, su questo, sento che mancano ancora dei dettagli; mi assumo il compito di approfondirli nella seconda parte di questo lavoro.


“…a lot of cutting edge AI has filtered into general
applications, often without being called AI because once
something becomes useful enough and common enough it’s
not labeled AI anymore.”

Nick Bostrom
fondatore dell’Istituto per il futuro dell’umanità.

1.  Si veda https://it.wikipedia.org/wiki/Talo_(mitologia).

2. Si veda https://it.wikipedia.org/wiki/Macchina_di_Anticitera

3. Si vedano https://it.wikipedia.org/wiki/Jacques_de_Vaucanson e https://www.torinoscienza.it/personaggi/jacques-de-vaucanson# e https://mostre.museogalileo.it/nexus/inex.php?c%5B%5D=49102

4. Si veda https://it.wikipedia.org/wiki/ENIAC

5. Richard Feynman: Sta scherzando, Mister Feynman! – Vita e avventure di u no scienziato curioso. 2007, Bologna, Zanichelli. Richard Feynman: Che t’importa di ciò che dice la gente? Altre avventure di uno scienziato curioso. 2007, Bologna, Zanichelli

6. Si vedano https://it.wikipedia.org/wiki/Defense_Advanced_Research_Projects_Agency e https://www.darpa.mil/

7. Il Terabyte è un’unità di misura della memoria digitale e corrisponde a 1.024 Gigabyte (ogni Gigabyte corrisponde a 1.024 Megabyte, ciascuno dei quali corrisponde a 1.024 Kilobyte, ciascuno dei quali corrisponde a 1.024 byte).

8. Cioè siamo alle dimensioni degli atomi. L’ångström (Å) è una unità di misura di lunghezza per dimensioni ultra-microscopiche. Prendendo come riferimento il metro si hanno, come sottomultipli, il milli-metro (un millesimo), il micro-metro (un milionesimo) e il nano-metro (un miliardesimo); l’ ångström è un decimo di nanometro, cioè 0,1 nm.

9. Anche in molti processi naturali avviene che l’esito finale sia determinato largamente dalle circostanze nelle quali esse si verificano, più che dalle qualità individuali dei soggetti coinvolti. Per esempio nell’evoluzione delle specie.

10. Ricordo di aver assistito, molti anni fa, a una conferenza di Umberto Eco a Firenze, nel Salone dei 500 di Palazzo Vecchio. Tra le altre cose parlò della storia della letteratura e, a proposito della letteratura antica, di come noi la possiamo ricostruire solo in base alle opere che ci sono rimaste, non in base a “tutte” le opere. Fece l’esempio della letteratura che ci viene dalla Grecia antica, che va considerata una minima parte della produzione dell’epoca. Concluse dicendo, appunto, che “non sapremo mai” quali capolavori, anche superiori a quelli che conosciamo, possano essere andati perduti.