Opportunità e rischi dell’Intelligenza Artificiale

image_printstampa articolo

di ANDREA CATTANIA <> La capacità delle macchine di risolvere problemi sempre più complessi ci pone una serie di domande inquietanti. Riuscirà un automa intelligente a superare l’uomo, non tanto nei settori specifici per i quali esso è stato progettato, ma in senso generale? Potrà un giorno sviluppare qualche forma di consapevolezza? E, in caso affermativo, quando? Sono interrogativi che riguardano noi tutti e che non dovrebbero essere appannaggio dei soli specialisti.

Estate 1956: dieci uomini si riuniscono al Dartmouth College per un seminario di sei settimane. Sono scienziati selezionati fra i massimi esperti di teoria degli automi e studio dell’intelligenza. Da questo incontro nasce il Dartmouth Summer Project, oggi considerato l’atto di nascita dell’Intelligenza Artificiale.

I primi passi dell’IA

L’evento, finanziato dalla Rockefeller Foundation, aveva come argomento uno studio “sulla base della congettura che, in linea di principio, ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza possa essere descritto in modo così preciso da far sì che una macchina possa simularlo.”
Vennero identificate due linee principali di ricerca, che poi saranno definite “impostazione simbolica” e “impostazione connessionistica”. I sostenitori della prima, in particolare Marvin Minsky, Herbert A. Simon e Allen Newell, partivano dall’idea che la mente fosse una macchina e che, di conseguenza, l’attività cognitiva del cervello potesse essere riprodotta mediante la messa a punto di modelli astratti, in grado di operare tramite simboli. Studiando il comportamento del nostro cervello dovremmo poterlo replicare in un computer.
I risultati concreti di questo approccio furono programmi in grado di svolgere attività intelligenti piuttosto semplici, come alcune dimostrazioni matematiche. Fra i primi esempi di tali realizzazioni si potrebbero menzionare Logic Theorist, che era in grado di dimostrare la maggior parte dei teoremi contenuti nel secondo capitolo dei Principia Mathematica di Alfred N. Whitehead e Bertrand Russell, e General Problem Solver, che sapeva risolvere numerosi problemi specificati in modo formale.
In alternativa all’impostazione simbolica, Frank Rosenblatt partiva da una definizione di intelligenza non tanto in termini comportamentali, quanto funzionali: essa è una proprietà tipica del cervello biologico. Per simularla, si rende necessario riprodurne la struttura e, quindi, il funzionamento stesso del nostro sistema nervoso. Su queste premesse, il modello connessionista sviluppò fin dall’inizio il fondamentale concetto di RNA, o rete neurale artificiale. Grazie a queste reti abbiamo realizzato, per la prima volta nella storia dell’uomo, un prodotto in grado di imparare in modo autonomo.
Come erano impostati gli obiettivi iniziali di questo progetto? Ecco come si esprime al riguardo la proposta dei suoi promotori: “Si cercherà di scoprire come costruire macchine che usano il linguaggio, formulano astrazioni e concetti, risolvono tipi di problemi oggi riservati agli esseri umani e si migliorano da sole. Riteniamo che sia possibile compiere un progresso significativo in uno o più di questi problemi se alcuni scienziati accuratamente selezionati lavoreranno insieme per un’estate.”

IA debole e IA forte

Sei anni prima del Dartmouth Project, Alan Turing aveva proposto un test, oggi considerato un classico, per misurare l’intelligenza di una macchina. Nell’articolo Computer machinery and intelligence, pubblicato sulla rivista Mind, Turing prendeva spunto dal gioco dell’imitazione per stabilire, in base alle risposte date da un uomo e da una macchina, quale sia l’uno e quale l’altra. La versione originale del gioco prevedeva che i due partecipanti fossero un uomo e una donna.
La possibilità di costruire una macchina capace di pensare come un uomo, fino a superarlo se non, addirittura, dotata di consapevolezza, è alla base della cosiddetta intelligenza artificiale forte. Questo approccio è stato duramente contestato dal filosofo americano John Searle, il quale sostiene che “riproduzione” non è sinonimo di “simulazione”. Infatti, egli afferma, “si può immaginare una simulazione al calcolatore dei processi digestivi in uno stomaco alle prese con una pizza: nel caso del cervello, la simulazione non è più verosimile che nel caso dello stomaco. A meno che non avvenga un miracolo, non potremmo digerire una pizza eseguendo un programma che simula la digestione.”
Alla IA forte si contrappone l’intelligenza artificiale debole, che si accontenta di una macchina in grado di comportarsi come se fosse intelligente, indipendentemente dal modo in cui sono realizzati i suoi programmi. È il caso di Deep Blue che, nel 1997, sconfisse a scacchi il campione mondiale in carica, Garry Kasparov: un sistema che, peraltro, non si era minimamente proposto di imitare i processi mentali di un Grande Maestro.
Alcuni autori affiancano a queste due forme di IA la cosiddetta intelligenza artificiale pragmatica, che ha compiti più limitati. Si parla infatti, in questo caso, di macchine quali robot che si comportano come insetti, o altre analoghe che, pur avendo notevoli utilità pratiche, rimangono comunque ai margini del dominio dell’intelligenza artificiale vera e propria.

Quale futuro ci aspetta?

Sono passati quasi settant’anni dal progetto di Dartmouth. Qual è stata l’evoluzione dell’IA da allora? Dopo un grande entusiasmo iniziale, dobbiamo ammettere che il progresso dell’IA è stato più lento del previsto. Le difficoltà tecniche incontrate nella realizzazione di queste macchine sono state superiori a quanto pensavano i primi protagonisti del settore. Ciò non significa, tuttavia, che le loro aspettative fossero fuori dalla nostra portata. Quello che è certo è che oggi siamo molto più prudenti nell’azzardare pronostici. Nessuno è in grado, per ora, di dichiararsi con certezza a favore o contro la superintelligenza. Ma l’aspetto di gran lunga più importante della questione non è tanto se e quando questa singolarità potrà verificarsi. Sul piatto c’è un tema fondamentale: che cosa potrebbe accadere al genere umano, una volta sopraffatto da un’intelligenza di nuovo genere, da lui stesso creata?
I percorsi verso “un’intelligenza digitale di livello umano”, per usare un’espressione di Nick Bostrom, potrebbero essere molteplici. Bostrom, cinquantenne svedese laureato in filosofia, fisica e neuroscienze computazionali, li esamina in profondità in un testo del 2014, pubblicato in Italia nel 2018 da Bollati Boringhieri con il titolo Superintelligenza – Tendenze, pericoli, strategie. Fin dalle prime pagine, egli ci ricorda che questo livello dell’IA “non è la destinazione finale. La tappa successiva, poco più in là lungo i binari, è un’intelligenza digitale di livello sovrumano. Il treno potrebbe non sostare e nemmeno rallentare alla stazione di ‘Città degli umani’. Probabilmente la supererà sfrecciando.”
Ciò che ci aspettiamo, pur senza esserne certi, è un’esplosione di intelligenza come quella profetizzata nel 1965 da un matematico, Irvin John Good: un collaboratore di Alan Turing, il quale aveva definito macchina ultraintelligente un automa che “può superare di gran lunga tutte le attività intellettuali di qualunque essere umano, per quanto intelligente.” Una macchina simile sarà quindi in grado di progettarne di ancora migliori, “e l’intelligenza dell’uomo resterebbe molto indietro.” La sua conclusione? “Si può dire quindi che la prima macchina ultraintelligente è l’ultima invenzione che l’uomo dovrà mai realizzare, a patto che la macchina sia abbastanza docile da spiegarci come tenerla sotto controllo.”

Alti e bassi della IA

Secondo Bostrom, questa possibilità -indipendentemente dalle sue probabilità di verificarsi- dovrebbe essere esaminata con la massima serietà. La speranza è che, oltre ad avere le competenze tecnologiche necessarie per realizzare un simile mostro, siamo capaci contemporaneamente di sviluppare anche quelle che ci permetteranno di sopravvivere in questa situazione.
Negli anni Settanta, dopo i primi successi, le difficoltà incontrate nel passaggio a un maggior livello di complessità contribuirono a raffreddare gli entusiasmi. Solo l’avvio, in Giappone, del progetto di un computer di quinta generazione come piattaforma per l’intelligenza artificiale, diede nuova linfa all’ottimismo iniziale. Nei primi anni Ottanta, sull’esempio del Giappone, diversi stati rilanciarono gli investimenti nell’IA.
In questo periodo videro la luce numerosi sistemi esperti, “programmi basati su regole che producevano semplici inferenze da una base di conoscenza contenente fatti ricavati da esperti umani del dominio e codificati manualmente, con grande cura, in un linguaggio formale”, se vogliamo citare la definizione di Nick Bostrom. Ma quando si comprese che anche il progetto della quinta generazione non aveva raggiunto i propri obiettivi, l’intelligenza artificiale fu avvolta da una nuova ondata di gelo.
Fu necessaria l’introduzione di nuove tecniche, che permettevano di superare i limiti della prima fase dell’IA, per sciogliere “il ghiaccio del suo secondo inverno”. La combinazione di due fattori, le accresciute capacità di apprendimento delle macchine rese possibili dalle nuove reti neurali e l’introduzione di computer molto più potenti, rilanciò ben presto la speranza di grandi aspettative verso l’IA.

Che fare?

A questo punto, l’unica cosa che possiamo affermare è che -al di là delle opinioni che ognuno di noi può avere sull’argomento- è indiscutibile che l’intera umanità sia chiamata a mettere a punto una strategia di sopravvivenza. Qualcuno ha azzardato un’analogia con la recente pandemia, uno dei più gravi pericoli che abbiamo dovuto fronteggiare in questi anni (peraltro inaspettato). Questo è il punto di vista di un recente saggio pubblicato lo scorso anno nella versione italiana con il titolo Super intelligenti – Come salvare il mondo dall’Intelligenza Artificiale da Mondadori Libri per BUR Rizzoli. L’Autore, Mo Gawdat, uno degli sviluppatori delle piattaforme di Google per l’IA, afferma fin dalla prima pagina: “Personalmente, ritengo che la strada intrapresa dai politici e dalla comunità internazionale per fronteggiare la pandemia non sia molto diversa da quella con cui intendono gestire l’imminente diffusione dell’intelligenza artificiale. Spero solo che gli errori commessi con il Coronavirus ci abbiano insegnato qualcosa, in primis ad affrontare questo enorme cambiamento con meno disagi e scossoni, soprattutto in ambito sociale ed economico.”
La sua opinione viene rafforzata da una frase di Elon Musk che possiamo leggere in copertina: “L’avvento della super intelligenza artificiale rappresenta la più grande crisi esistenziale che siamo chiamati ad affrontare.”
Questa succinta sintesi delle caratteristiche dell’IA verrà sviluppata in maggior dettaglio in una serie di articoli di prossima pubblicazione, che affronteranno gli aspetti riguardanti la sua storia e le sue prospettive. In altri termini: passato, presente e futuro dell’IA dell’intelligenza artificiale.


Categories:

,

Comments

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *