Infanzia e adolescenza delle macchine intelligenti

image_printstampa articolo

di ANDREA CATTANIA <>
Se qualcuno pensa che l’Intelligenza Artificiale sia nata dal nulla, si sbaglia. Le sue radici affondano in una storia di millenni, anche se l’accelerazione decisiva si è registrata negli ultimi secoli. Indubbiamente, il suo attuale tasso di sviluppo riflette la situazione di crescente globalizzazione che si registra nei rapporti fra le popolazioni, nell’accesso alle varie forme di conoscenza e negli scambi materiali e immateriali di cui è fatta la nostra vita associata.

Il sogno della macchina pensante

Nel corso della nostra storia abbiamo conosciuto gli effetti di diverse innovazioni estremamente pervasive. Le più imponenti sono state forse l’introduzione della stampa a caratteri mobili e l’avvento di Internet. Entrambe hanno rivoluzionato nel profondo la società, estendendo le capacità cognitive del nostro cervello. Ma il tempo che è stato necessario perché se ne vedessero gli effetti, nei due casi, è stato ben diverso. Per la diffusione della stampa sono stati necessari secoli, la comunicazione digitale si è realizzata in pochi anni.
Nel caso dell’Intelligenza Artificiale la scala dei tempi è molto più estesa. Perché fosse possibile parlare di IA fu necessario lo sviluppo, almeno in fase embrionale, dei primi computer. Ma è da molto tempo prima dell’era del computer che abbiamo creduto alla possibilità di realizzare oggetti capaci di estendere le nostre capacità, a partire dalle esigenze di osservazione astronomica, e non solo di calcolo.
Una macchina capace di eseguire operazioni con il riporto automatico fu realizzata da Blaise Pascal nel 1642. Ma qualche decennio fa abbiamo scoperto che, già vent’anni prima di Pascal, un insegnante di ebraico e di astronomia aveva creato una macchina “assistita” capace di effettuare calcoli matematici con numeri fino a sei cifre. Era il tedesco Wilhelm Schickard, il quale nel 1623 aveva scritto due lettere a Keplero in cui affermava di avere progettato un “orologio calcolatore”. Queste lettere andarono perdute, ma oggi Schickard è ricordato come “padre dell’informatica” mentre, già nel 1651, Giovanni Riccioli aveva dato il suo nome a un cratere lunare. Oggi, l’Istituto di Informatica dell’Università di Tubinga si chiama Wilhelm Schickard Institut.
Dopo di allora, anche Leibniz e altri personaggi più o meno noti hanno progettato macchine per il calcolo. Ma dobbiamo attendere quasi due secoli prima di arrivare a concepire sistemi con caratteristiche che anticipano quelle degli attuali computer. Dobbiamo questo salto di qualità a Charles Babbage e alla sua macchina analitica, messa a punto fra il 1834 e il 1837. Quando Babbage conobbe Ada Lovelace la convinse a collaborare con lui sulle ricerche nel campo delle nuove macchine: e fu anche grazie al contributo della figlia di lord Byron che Babbage riuscì a sviluppare la programmazione nelle forme che usiamo ancora oggi. In un articolo scritto dall’“incantatrice di numeri”, come l’aveva battezzata lo stesso Babbage, Ada Lovelace descrisse “una macchina capace di essere uno strumento programmabile, con un’intelligenza simile a quella dell’uomo.” In riconoscimento dell’importanza del suo contributo alla realizzazione del computer, il nome Ada è stato dato a un importante linguaggio di programmazione.
L’altro fondamentale salto di qualità verso il computer come lo vediamo oggi è dovuto a George Boole, il logico e matematico che nel 1854 scrisse un trattato in cui venne presentata per la prima volta la logica binaria, destinata a diventare la lingua madre dei futuri calcolatori. Si è trattato, comunque, di un’evoluzione relativamente lenta rispetto ai ritmi di sviluppo ai quali ci ha abituato la rivoluzione tecnologica del nostro tempo. Abbiamo dovuto attendere quasi la metà del ventesimo secolo perché  il sogno del computer si traducesse in realtà.

Il computer e l’IA                                  

Fu solo nel ventesimo secolo, nel 1937, che all’università di Yale Claude Shannon mostrò come l’algebra booleana e le operazioni binarie potessero rappresentare la svolta decisiva per l’elaborazione numerica basata sull’elettronica. L’anno precedente era stato pubblicato un articolo di Alan Turing sui “numeri computabili”, che descriveva un’applicazione pratica e la prima definizione dei concetti fondamentali di calcolabilità e computabilità. Anche la “macchina di Turing”, una pietra miliare sulla via che porta al computer, è figlia di quell’articolo.
Oggi possiamo affermare che il computer è nato nell’ambito di una linea evolutiva in cui le caratteristiche delle macchine figlie e nipoti di quelle di Schickard e Pascal si combinano con le possibilità offerte dalle nuove tecnologie. Queste ultime hanno finalmente aperto la strada alla possibilità concreta di realizzare il sogno plurimillenario di creare un sistema intelligente, se non addirittura dotato di coscienza.
Ma il computer non è l’unico protagonista di questa rivoluzione. Le reti neurali consentono di risolvere il difficile problema di riconoscere i numerosi modelli disponibili grazie a Internet. Questa caratteristica viene utilizzata non solo nell’identificazione di immagini e suoni, ma anche nello stesso controllo dei veicoli, oltre che nella diagnostica medica e nei processi decisionali.
Una prima descrizione dell’Intelligenza Artificiale comparve nel 1943, ad opera di Warren S. McCulloch e Walter Pitts, che produssero un modello in cui i neuroni artificiali potevano passare dallo stato “spento” allo stato “acceso” in presenza di stimoli provenienti da un numero sufficiente di neuroni circostanti. In un articolo intitolato Un calcolo logico delle idee immanenti all’attività nervosa, essi svilupparono le idee di Turing mostrando che ogni funzione computabile può essere realizzata mediante una semplice struttura neurale.

Reti neurali artificiali

Per vedere all’opera la prima rete neurale artificiale, comunque, avremmo dovuto pazientare altri otto anni. Nel 1951, un giovane matematico che intratteneva un rapporto di corrispondenza con George Armitage Miller, noto studioso di psicolinguistica, riuscì a convincerlo a intervenire presso il Laboratorio di Ricerca dell’Air Force perché erogasse i fondi necessari per la realizzazione del progetto di una “macchina computazionale elettromeccanica”. Il suo nome sarebbe poi diventato famoso come quello di uno dei fondatori dell’Intelligenza Artificiale: era Marvin Lee Minsky, l’uomo che nel 1963 avrebbe dato vita, in collaborazione con altri ricercatori in ambito MIT, al progetto MAC (Mathematics and Computation).
Da questa iniziativa sarebbero sorti nello stesso Massachusetts Institute of Technology il laboratorio per la Computer Science e quello per l’IA, poi confluiti nel 2003 nel MIT Computer Science and Artificial Intelligence Laboratory. Nel 1985, Minsky divenne anche uno dei fondatori del MIT Media Laboratory. Nel progetto, che era stato battezzato SNARC (Stochastic Neural Analog Reinforcement Calculator), si affiancò a Minski fin dall’inizio un ricercatore di Princeton, Dean S. Edmonds, il cui contributo fu particolarmente importante nella fase della progettazione elettronica.
In questo primo quarto del ventunesimo secolo abbiamo assistito al dilagare dell’IA debole, parallelamente a notevoli progressi di quella forte. Ricordo qui che le definizioni di IA debole e forte sono state date in un precedente articolo di Non Credo sullo stesso argomento. Uno dei casi più spettacolari è quello dei veicoli autoguidati. Allo stato attuale, la tecnologia garantisce una maggiore sicurezza stradale, tanto che a livello globale si stima che i benefici dell’auto a guida autonoma si tradurranno in un risparmio di milioni di vite umane. Nello stato del Nevada le norme per regolamentare la circolazione dei veicoli privi di guidatore sono in vigore fin dal 2011. L’apprendimento automatico si basa sull’analisi dei dati provenienti dai sensori e consente di monitorare il movimento degli oggetti per identificarli. Inoltre, si apre la possibilità di ottimizzare le infrastrutture stradali e, aspetto non secondario, di ridurre le emissioni di CO2.
Un altro campo in cui l’IA ha raggiunto una grande popolarità è quello dei giochi. E non solo in quello degli  scacchi, ma perfino in quelli più difficili, come il Go. Alla fine del secolo scorso si pensava che avrebbe dovuto passare molto tempo prima che una macchina potesse battere nel Go il campione mondiale in carica. Ciò è invece accaduto nel 2016, quando Lee Sedol, il sudcoreano detentore del titolo, è stato sconfitto in quattro partite su cinque da AlphaGo, che utilizzava una tecnica sviluppata nell’ambito delle reti neurali, il deep learning.

L’IA e il ruolo del Creatore

Potremmo trovare o inventare mille definizioni per l’IA. Io qui mi limiterò a proporne una che, fra le molte, mi sembra la più completa e rispondente ai nostri obiettivi. “L’Intelligenza Artificiale è una disciplina appartenente all’informatica, che studia i fondamenti teorici, le metodologie e le tecniche in grado di consentire la progettazione di sistemi hardware e sistemi di programmi software, capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.” È la definizione che dell’Intelligenza Artificiale ha dato un protagonista del settore, Marco Somalvico, prematuramente scomparso. Di Marco ho potuto apprezzare la non comune profondità di pensiero, essendo stato suo compagno di studi al Politecnico di Milano.
Parallelamente allo sviluppo dell’IA abbiamo approfondito la nostra conoscenza dell’intelligenza “naturale” e ci siamo posti nuove domande sul ruolo dell’uomo sul pianeta e su quello di un ipotetico creatore. Da quando è comparsa sulla Terra, la vita si è riprodotta nei modi che conosciamo. Gli esseri viventi, animali e vegetali, generano individui della stessa specie, con le loro stesse caratteristiche. Per la prima volta qualcuno si sta dimostrando capace di dare forma a qualcosa di diverso, dotato di alcune di tali caratteristiche, partendo dall’intelligenza, per arrivare forse alla coscienza se non addirittura alla vita stessa. A questo punto avremmo raggiunto  il livello di una divinità, ma le nostre nuove creature potrebbero superare questo livello, fino a rappresentare per noi, nuovi apprendisti stregoni, problemi angosciosi. Questa problematica sarà il tema di un futuro articolo, per ora mi vorrei limitare a riprendere le riflessioni di due importanti personaggi che l’hanno affrontata.
La prima si rifà a un concetto espresso da Mo Gawdat, uno dei principali specialisti di Google. Noi, semplici esseri umani, ci autodefiniamo le creature più intelligenti del pianeta. Raramente, però, ammettiamo di essere i più arroganti, e costantemente dimentichiamo verità fondamentali: come il fatto di non sapere tutto e di non essere in grado di risolvere ogni problema. E, ancora peggio, non riconosciamo quasi mai la presenza dell’intelletto in altri esseri viventi. Personalmente sono convinto che, anziché gloriarci dei nostri successi raggiunti nel campo della IA, faremmo bene a scolpirci nella mente queste parole e, soprattutto, impegnarci per affrontare fin da ora i problemi cui accennavo sopra, prima che sia troppo tardi.
La seconda è la citazione di una frase del famoso articolo del 1950, oggi considerato un classico, in cui Alan Turing si tolse la soddisfazione di esprimere la propria opinione sul ruolo di Dio nella scelta degli “esseri intelligenti”. Ecco ciò che scrive a proposito dell’anima.

Mi sembra che l’argomentazione sopra citata implichi un’importante limitazione dell’onnipotenza di Dio. Perché non potremmo credere che Egli abbia la libertà di instillare un’anima in un elefante, se lo ritenesse opportuno? Eserciterebbe il suo potere, producendo una mutazione atta a dotare l’elefante di un cervello adeguatamente potenziato, affinché possa occuparsi delle necessità dei suoi simili. La stessa argomentazione potrebbe riguardare anche le macchine.


Categories:

,

Tags:


Comments

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *