La creazione di una intelligenza artificiale (IA) ha costantemente affascinato e stimolato l’immaginazione umana. Tuttavia, è solo nell’ultimo secolo che gli sforzi sistematici per realizzare tale obiettivo hanno preso forma. Dagli albori della computazione nel XX secolo, con pionieri come Alan Turing e John von Neumann, fino all’era digitale in cui viviamo oggi, la ricerca e lo sviluppo nell’ambito delle IA hanno conosciuto un’accelerazione senza precedenti.

L’interesse verso l’IA è strettamente legato alla nostra innata curiosità e al desiderio di comprendere la nostra stessa intelligenza. Infatti, attraverso lo studio e la creazione di sistemi artificiali in grado di pensare, apprendere e risolvere problemi, si spera di ottenere una migliore comprensione dei meccanismi sottostanti l’intelligenza umana; è un modo, per l’uomo, di creare dei cloni di se stessi ma perfetti, sempre efficienti ed efficaci. Inoltre, l’IA offre promettenti opportunità per risolvere alcuni delle sfide più complesse che la società moderna si accinge ad affrontare: dall’automazione industriale alla medicina, dall’analisi dei big-data alla guida automatica ecc.. Infine, l’IA offre un terreno fertile per l’innovazione e la creatività.

L’interdisciplinarietà dell’IA, che abbraccia conoscenze provenienti da matematica, informatica, neuroscienze, psicologia e molte altre discipline, la rende, oltretutto, un campo di studio affascinante e ricco di sfide.

Detto ciò, lungi dal volere entrare nel dibattito sull’utilità dell’AI o sulle questioni etiche e sociali che essa solleva, in continuità con alcune precedenti note pubblicate sul Caos Management, ritengo che per simulare una vera intelligenza, anche di livello basso, è necessario che questa abbia una qualche forma di “apprensione” per se stessa, una sorta di “vulnerabilità”, fermo restando una notevole empatia verso l’uomo.

Nelle note suddette, abbiamo visto che lo schema funzionale della vita elementare, quella delle cellule batteriche, è costituito fondamentalmente da due capacità: quella omeostatica, consistente nel conservare la stabilità organizzativa nel proprio divenire, e quella autopoietica, che consiste nell’assumere la materia e l’energia necessarie a sostituire quelle degradate e riemesse verso l’ambiente. La riproduzione delle cellule (scissione) è automatica, se sono presenti sia le giuste molecole sia le particolari condizioni chimico-fisiche.

Con l’avvento degli organismi pluricellulari, la capacità omeostatica si integra, in coevoluzione con la riproduzione sessuale e con le altra capacità, di una spinta interna, di natura chimica, che potremmo chiamare “istinto”. Ciò perché riproduzione sessuale e attività propedeutiche (movimento ecc.) non sono automatiche ed hanno un costo energetico, per cui occorre una “pulsione” (altrimenti, darwinianamente, non saremmo qui …).

Infine, lo schema funzionale della vita evoluta (cervello-mente) si modifica ancora e si assimila a quello di una macchina, articolata e sofisticata, guidata e controllata da un componente altamente complesso, il cervello, coadiuvato da un sistema di recettori costituiti dal sistema nervoso periferico e da quello endocrino-immunitario e sensoriale. Il cervello, attraverso le informazioni, interne ed esterne, provenienti dal sistema dei recettori, attua il controllo omeostatico dell’intero vivente, attivando le contromisure chimico-fisiche allorquando percepisce uno scompenso. Il cervello controlla anche la propria omeostasi che, oltre a materia ed energia, necessita di informazioni, sempre nella forma di segnali chimico-fisici.

Allora, per tornare all’AI, probabilmente, la forma più innocua di apprensione per un’AI è quella di metterla in competizione con altre AI e, ogni tanto, farla “sentire inadeguata”. Un cane, lasciato solo, abbaia disperatamente ma è pronto a festeggiare spassionatamente quando coloro che considera i “propri congiunti” ritornano.

Nel caso di una AI, il “sentirsi inadeguata” potrebbe avere la forma della segnalazione, da parte dei gestori, che le risposte sono poco significative rispetto ad altre intelligenze. In tal caso, una AI, sempre interconnessa ad archivi di big-data, è “invogliata” a “studiare” di più (in maniera controllata). Ciò si potrebbe attuare attraverso un mirato algoritmo interno che la incentivi ad “apprendere” meglio, nel senso di relazionare in modo ottimale le informazioni che assume, e con intensità inversamente proporzionale al gradimento espresso dai propri gestori.

Potrebbe accadere che si arrivi ad una condizione di equilibrio stabile in cui nell’AI si attesti una “sensazione di benessere”, quasi come una forma di fitness ambientale. È un dato di fatto che, per ogni cervello genomico, la mente di un neonato (di qualsiasi animale) è molto elementare. Quindi la mente è qualcosa che emerge gradualmente e, nei viventi, coevolve con i processi cerebrali che la sottendono, mentre nelle AI potrebbe coevolvere proprio attraverso una forma di frustrazione controllata.