IA-piano

L’evoluzione dell’Intelligenza Artificiale: dall’imitazione dell’uomo al suo empowerment

L’Intelligenza Artificiale (IA) è un ramo dell’informatica che permette la programmazione e la progettazione di sistemi, hardware e software, dotati di caratteristiche che vengono considerate tipicamente umane. Trasferendo alle macchine, ad esempio, le percezioni visive, spazio-temporali e decisionali non si parla soltanto di semplice capacità di calcolo o di conoscenza di dati astratti, ma anche, e soprattutto, di tutte quelle differenti forme di intelligenza che vanno dall’intelligenza spaziale a quella sociale, da quella cinestetica a quella introspettiva. Per realizzare un sistema evoluto, infatti, si cerca di ricreare una o più di queste differenti forme di intelligenza che, anche se spesso sono definite come semplicemente umane, in realtà possono essere ricondotte a particolari comportamenti riproducibili da alcune macchine.

L’IA moderna è nata nel secondo dopoguerra, grazie soprattutto all’avvento dei calcolatori, considerati lo strumento ideale per riprodurre la mente umana.

Alcuni dei primi a lavorare in questo ambito di ricerca, Warren McCulloch e Walter Pitts, nel 1943 proposero un modello di rete neurale che si ispirava al funzionamento del cervello umano. Ogni neurone, interconnesso con gli altri da sinapsi, poteva rappresentare uno stato binario: “on” o “off”. Ogni neurone artificiale alla ricezione di uno o più input, che simulavano il funzionamento delle sinapsi del cervello umano, li sommava per produrre un output da inviare ad altri neuroni della rete che lo avrebbero utilizzato come loro input. Questi singoli neuroni artificiali ancora oggi sono un’unità standard di riferimento nella costruzione di reti neurali tanto da essere chiamati neuroni McCulloch-Pitts.  L’ipotesi più sorprendente nata da questa ricerca fu che queste reti fossero in grado di attuare dei processi di apprendimento. Ci vollero pochi anni per confermare questa supposizione: infatti, Donald Hebb nel 1949 teorizzò una regola di modifica delle sinapsi artificiali che lo rese effettivamente possibile. Infatti, secondo Hebb, due neuroni legati in una rete neurale indotti ripetutamente ad attivarsi dal verificarsi di un determinato evento, tenderanno a consolidare e rafforzare la loro connessione sviluppando un ricordo dell’evento che l’ha stimolata.

Warren McCulloch e Walter Pitts, gli inventori del neurone artificiale
Warren McCulloch e Walter Pitts, gli inventori del neurone artificiale

All’inizio del decennio successivo Marvin Minsky creò il primo computer a rete neurale, detto SNARC. Questa macchina era in grado di simulare una rete di 40 neuroni con lo scopo di riprodurre il comportamento di un topo in un labirinto che, sbaglio dopo sbaglio, impara a percorrere la strada giusta per uscirne.

Nel 1950 Alan Turing, eroe britannico della Seconda Guerra Mondiale per il suo lavoro di decrittazione dei messaggi in codice nazisti, scrisse l’articolo “Computing machinery and intelligence”. Insieme alle sue lezioni sull’argomento, l’articolo portò rilievo a questo campo nascente, determinando che una macchina si sarebbe potuta considerare intelligente se avesse passato il “Test di Turing“ o “Imitation Game”. Il test consisteva nel mettere un uomo davanti ad un terminale, attraverso il quale comunicare con due entità: un altro uomo ed un computer. Se la persona che comunicava attraverso il terminale non fosse riuscita a distinguere chi fosse l’uomo e chi la macchina, allora il computer avrebbe superato la prova.

ACE Automatic Computing Engine, il macchinario utilizzato per il Test di Alan Turing o Imitation Game

Nel 1956, l’IA ottenne lo status di vera e propria disciplina scientifica: in quell’anno al Dartmouth College (New Hampshire) si tenne una conferenza organizzata dal ricercatore John McCarthy che, nel manifesto della stessa, propose per la prima volta la parola “intelligenza artificiale”. McCarthy espresse l’opinione che ogni aspetto dell’intelligenza potesse essere descritto in termini tanto rigorosi da rendere possibile programmare una macchina in grado di simularli. La conferenza era pensata come un’occasione per riunire e mettere a confronto su questo tema molti fra i primi e più importanti ricercatori nell’ambito.

A Dartmouth i ricercatori Herbert Simon e Allen Newell ebbero modo di presentare quello che si può considerare il primo programma di IA: Logic Theorist, ideato dai due già nel 1955, era in grado di dimostrare buona parte dei teoremi del capitolo 2 dei “Principia Mathematica” di Russell e Whitehead. Gli stessi Newell e Simon svilupparono nel 1957 il General Problem Solver (GPS), in cui implementarono un processo inferenziale ispirato al modo di ragionare della mente umana. Il GPS poteva agire e manipolare oggetti all’interno della rappresentazione di una stanza, come ad esempio raggiungere un oggetto appoggiato su un tavolo impilando due sedie.

Nel frattempo, McCarthy lavorava assiduamente al MIT alla scrittura di un nuovo linguaggio di programmazione, detto LISP, che facilitasse la realizzazione di programmi di IA. Nel 1958 descrisse nel suo “Programs with common sense” il primo esempio di intelligenza artificiale completa: Advice Taker, che doveva essere in grado di percepire la realtà circostante e rappresentarla al proprio interno, in modo da interagire con essa e rispondere agli stimoli provenienti dall’esterno.

I progressi raggiunti in quel periodo furono sorprendenti: i computer iniziavano a risolvere problemi algebrici, a dimostrare teoremi geometrici e a imparare a parlare in inglese. Fra le molte applicazioni in cui i primi ricercatori ritenevano che l’IA potesse fornire contributi essenziali c’era infatti la traduzione automatica, ma fu proprio su quel terreno che si andò incontro ai primi fallimenti e delusioni.

Nel pieno della Guerra Fredda alcune organizzazioni come la DARPA, un’agenzia governativa del Dipartimento della Difesa degli Stati Uniti, investirono decine di milioni di dollari in progetti di intelligenza artificiale presso diverse università, inseguendo la possibilità di tradurre, rapidamente e automaticamente, articoli scientifici dal russo all’inglese. Tutti questi progetti sarebbero poi stati abbandonati per la mancanza di risultati ed il fallimento di questi tentativi iniziali, sancito in un rapporto al governo americano nel 1966, costò il taglio dei fondi governativi a molti programmi di ricerca sull’IA.

Nel frattempo, tra il 1964 e il 1966, Joseph Weizenbaum creò ELIZA (riprodotta qui), una delle pionieristiche applicazioni dell’elaborazione del linguaggio naturale. La macchina era in grado di simulare la conversazione con esseri umani usando semplici sostituzioni e regole di ricerche per corrispondenza. ELIZA viene ricordata come un passo fondamentale nella storia dell’IA, perché fu la prima volta che si sviluppò un’interazione uomo-macchina con l’obiettivo di creare l’illusione di una conversazione tra esseri umani. L’effetto che questo programma aveva su molti era sconcertante: nella simulazione di ELIZA di una seduta psicologica, i “pazienti” infatti si calavano completamente nell’illusione aprendo il proprio animo e i propri pensieri al computer. Questo portò Weizenbaum, a distanza di anni, ad esprimere dubbi riguardanti la moralità della creazione di un’IA.

ELIZA
Joseph Weizenbaum e la sua ELIZA

Nello stesso periodo, Ed Feigenbaum inventò un tipo di Intelligenza Artificiale chiamato “sistema esperto”: i sistemi esperti utilizzavano una serie di regole logiche derivate dalle conoscenze di umani esperti in determinati campi per automatizzare decisioni molto specifiche. Nel 1965 progettò DENDRAL, in grado di analizzare la struttura chimica delle molecole organiche: veniva fornita l’analisi spettrale della molecola e il programma definiva un insieme di possibili strutture che successivamente metteva a confronto con i dati per determinare quella corretta. Nel 1972 poi, insieme ad altri due ricercatori, sviluppò MYCIN, un sistema specializzato nella diagnosi di malattie infettive.

Nonostante le innumerevoli scoperte dei primi anni, l’eccitazione iniziò a scemare proprio nel decennio 1970-1980: le aspettative e le speranze, che erano state millantate dagli scienziati, si rivelarono troppo rosee ed ambiziose. Proprio negli ambiti che sembravano più semplici, come la traduzione automatica o la riproduzione del linguaggio naturale, l’IA aveva le maggiori difficoltà. C’erano, inoltre, complicazioni legate al limitato potere di calcolo, difficoltà e intrattabilità dei problemi, gestione di grandi quantità di dati. Ad esempio, uno dei primi sistemi di intelligenza artificiale che analizzava la lingua inglese era in grado di gestire un vocabolario di sole 20 parole, perché non poteva immagazzinarne altre nella propria memoria. Nel 1974 i finanziatori, rendendosi conto che i ricercatori avevano promesso troppo senza raggiungere i risultati sperati, rifiutarono di continuare a sostenere la maggior parte dei progetti di IA.

L’inizio degli anni Ottanta furono il teatro di un ritorno in auge di questa branca, grazie al grande successo del programma XCON, scritto dal professor John McDermott per la Digital Equipment Corporation: aiutando i venditori di hardware a non commettere errori nell’erogazione di ordini molto complicati (all’epoca le persone dovevano ordinare in autonomia ogni singola componente per i loro sistemi informatici), permise all’azienda di risparmiare circa 40 milioni di dollari l’anno. Sull’onda di questo successo, si tornò a finanziare e investire: nacquero nuovi sistemi basati su conoscenza e ingegneria della conoscenza, che realizzavano programmi in grado di giocare a scacchi allo stesso livello di giocatori umani. 

Architettura di XCON
Architettura di XCON

Ancora una volta, tuttavia, gli investimenti e la fiducia nella AI si rivelarono una bolla economica che diede i primi segni di cedimento nel 1987, con la crisi di molte aziende hardware specializzate in computer dedicati all’intelligenza artificiale. I sistemi esperti come XCON si dimostrarono troppo costosi da mantenere perché dovevano essere aggiornati manualmente (processo difficile, costoso e soggetto a errori) e non riuscivano a gestire bene input insoliti. I nuovi PC di Apple e IBM si dimostrarono più potenti dei computer appositamente progettati per eseguire programmi di intelligenza artificiale così un’industria di mezzo miliardo di dollari scomparve dall’oggi al domani. I ricercatori avevano promesso troppo e ricavato poco e così lo studio dell’intelligenza artificiale subì una battuta d’arresto fino alla metà degli anni ’90.

Dopo l’ulteriore fallimento, lo studio dell’intelligenza artificiale cambiò totalmente approccio: se prima si puntava ad una ricerca basata sull’intuizione e su esempi creati ad arte, l’attenzione, ora, era spostata verso la costruzione di modelli che si basassero su risultati matematici ben dimostrati e che godessero di un’estensiva sperimentazione. Questa parziale rifondazione, unita alla disponibilità di elaboratori sempre più veloci e a nuove ondate di finanziamenti, condusse a significativi risultati: sorprendentemente, quando i finanziamenti stavano divenendo scarsi ecco che l’IA, anche se con altri nomi, iniziava ad essere incorporata in migliaia di sistemi di successo: il motore di ricerca di Google, ad esempio, venne parzialmente alimentato dall’intelligenza artificiale fin dall’inizio.

Nel 1991, DARPA presentò il sistema DART per ottimizzare la logistica necessaria all’esercito americano durante la guerra del Golfo: dopo 4 anni il sistema aveva fatto risparmiare ai militari la stessa quantità di denaro che DARPA aveva speso per la ricerca sull’IA negli ultimi 30 anni messi insieme. Nel 1997, Deep Blue di IBM sconfisse il campione del mondo di scacchi in carica, Garry Kasparov, e nel 2005, un robot di Stanford vinse il DARPA Grand Challenge guidando autonomamente per 131 miglia, attraverso un sentiero nel deserto che non aveva mai visto prima. Nessuno di questi sistemi e computer, però, era chiamato esplicitamente “intelligenza artificiale”: a partire dagli anni Novanta e proseguendo negli anni 2000, i ricercatori cominciarono a fare riferimento a queste invenzioni come “sistemi basati sulla conoscenza”, “sistemi cognitivi” e “intelligenza computazionale”.

Kasparov VS Deep Blue
Garry Kasparov VS Deep Blue

Arriviamo al presente: nel 2012 AlexNet si aggiudica la vittoria della ImageNet Large Scale Visual Recognition Competition, una competizione annuale che vede partecipare i migliori algoritmi di visione artificiale di tutto il mondo. Grazie al margine sorprendente di vittoria, il programma riesce a catturare l’attenzione dei ricercatori di molti settori, segnando un momento di grande rinascita per il settore dell’IA. I tre fattori determinanti per la vittoria del team dell’Università di Toronto sono i pilastri che stanno guidando la moderna intelligenza artificiale: la sempre crescente capacità computazionale, i big data e algoritmi sempre più intelligenti. Da qui ha preso il via la crescita esponenziale, dal 2012 ad oggi, dei progressi in campo IA.

Negli ultimi venti anni, il progresso tecnologico è avanzato a ritmi spaventosi, consentendo di raggiungere traguardi impensati. Ciò che ha permesso uno sviluppo così impressionante in così poco tempo sono principalmente due fattori: dal lato scientifico/tecnico, l’aumento di potenza e capacità di calcolo degli elaboratori (accompagnata dalla progressiva miniaturizzazione della loro componentistica) ed in campo sociale, la possibilità di avere accesso a milioni di dati, personali e non, ottenuti tramite l’utilizzo della tecnologia da parte della popolazione globale. Si è così innescato, inconsapevolmente, un processo di miglioramento dell’Intelligenza Artificiale senza precedenti, e proprio l’enorme disponibilità di dati, non disponibili in passato, è stato il carburante di questo super-sviluppo. 

Dalla collaborazione tra Microsoft, il Politecnico di Delft, la Rembrandt House Museum di Amsterdam e il Mauritshuis è nato il progetto “The Next Rembrandt”. Presentato il 19 aprile 2016 alla galleria “Looiersgracht 60” di Amsterdam, si tratta di un quadro di Rembrandt che l’autore però non ha mai dipinto veramente. “Come avrebbe dipinto il suo ultimo quadro Rembrandt?”, questa sembra essere stata la domanda alla base del progetto, e la risposta è: un’immagine prodotta da una stampante 3D che riproduce un ritratto di un uomo del XVII secolo. Sembra realizzato dalla mano dell’artista, ma è stato creato grazie all’utilizzo di una sofisticata tecnologia, che ha fatto sì che un computer realizzasse un dipinto le cui peculiari caratteristiche fossero in tutto simili a quelle degli originali; tanto da farlo sembrare un originale uscito dalla bottega del grande pittore olandese. L’opera è stato il frutto di 18 mesi di lavoro in cui l’intervento dell’uomo si è limitato a creare gli algoritmi più appropriati per la sua realizzazione, mentre al computer è spettato il compito più difficile: analizzare e cogliere le tipizzazioni dell’artista (geometrie compositive, materiali pittorici, schemi ricorrenti nella realizzazione dei volti nei ritratti, e l’inconfondibile marchio di fabbrica del maestro delle luci e delle ombre), memorizzare 168.263 frammenti pittorici presi da un corpus di oltre trecento dipinti realizzati tra il 1632 ed il 1642, acquisiti con uno scanner di altissima precisione con oltre 500 ore di scansioni e 150 GB di materiale. Il risultato è stato un quadro con protagonista il ritratto di un uomo di circa 30/40 anni di origine caucasica, con barba e baffi folti, un vestito nero dal colletto bianco ed un cappello, con lo sguardo rivolto verso destra. Per ricreare l’effetto tridimensionale di un dipinto, con la texture della tela e lo spessore della pittura, sono stati mappati i rilievi di un quadro originale. La mappatura ottenuta è servita come riferimento per la stampa finale di “The Next Rembrandt” che è stata generata con una stampante 3D che utilizza vernici UV, sovrapposte in diversi strati proprio per ricreare la sensazione di un quadro dipinto a mano.

The Next Rembrandt
The Next Rembrandt

Insomma, il progetto ha voluto alimentare la conversazione sul rapporto tra arte e algoritmi, tra dati e design umano e tra tecnologia ed emozione: il pezzo finale non è una copia dell’opera di Rembrandt e non è necessariamente quello che avrebbe dipinto se avesse vissuto più a lungo di quanto ha vissuto, ma una potente dimostrazione di come i dati possano essere usati per rendere la vita stessa più bella. Un omaggio al Maestro della Luce e dell’Ombra.

Non solo, l’intelligenza artificiale si è spinta anche nella produzione di whisky: la distilleria svedese Mackmyra Whisky, fondata nel 1999 e vincitrice di diversi premi internazionali, insieme alla società tecnologica finlandese Fourkind e a Microsoft, ha creato il primo whisky al mondo partendo dalla miscela suggerita proprio da un’intelligenza artificiale.

I Maestri Distillatori possono trascorrere tutta la loro vita a degustare, modificare e sperimentare meticolosamente per creare i migliori sapori possibili, trasformando gli atti di chimica in una forma d’arte. Qui Mackmyra ha chiamato in campo l’AI, utilizzata per aumentare ed automatizzare il processo di creazione del whisky. Attualmente, i modelli di machine learning della distilleria, sostenuti dalla piattaforma cloud e dai servizi cognitivi Azure di Microsoft, sono alimentati con le ricette esistenti di Mackmyra (comprese quelle per le miscele premiate), con i dati di vendita e con le preferenze dei clienti. Questo permette all’IA di generare 70 milioni di ricette che ritiene possano essere popolari: non solo è stato reso più veloce il processo, ma la quantità di dati elaborati permette di trovare combinazioni che probabilmente non sarebbero mai state considerate. Questa soluzione, però, non è stata progettata per sostituire un Master Blender dato che il fattore sensoriale non potrà mai essere sostituito da nessun programma.

Whisky AI Il primo whisky al mondo realizzato dall'intelligenza artificiale
Il primo whisky al mondo realizzato dall’intelligenza artificiale

L’IA, oggi, è in ogni aspetto della nostra vita quotidiana: il nostro cellulare conosce le nostre preferenze e i nostri gusti, si sblocca tramite riconoscimento del volto, indica quale percorso utilizzare, comunica quanto tempo impiegheremo ad arrivare da un posto all’altro, mentre i veicoli a guida autonoma sono divenuti realtà. Il riconoscimento del parlato, la traduzione automatica, la pianificazione e la logistica, gli assistenti vocali, i motori di ricerca: l’onnipresenza della IA porta sempre più a ritrovarla in ogni forma di tecnologia e innovazione che ci circonda. Questo viaggio lungo più di 70 anni ci ha portati, oggi, a svolgere e ripetere centinaia di gesti routinari connessi a processi di intelligenza artificiale, senza che quasi ormai ci si faccia più nemmeno caso. L’intelligenza artificiale è un’opportunità di empowerment umano e, nonostante sotto certi aspetta possa “fare paura”, dobbiamo continuare ad essere noi a scegliere come governarla perché continui a rappresentare un’opportunità concreta di sviluppo.

Per non perdervi i prossimi viaggi alla scoperta delle tecnologie che stanno rivoluzionando il nostro quotidiano, iscrivetevi alla nostra newsletter qui.

Condividi questo articolo