Questa è una breve storia dell’intelligenza artificiale, scritta da un medico per altri medici.
Lo scopo di questo articolo è quello di chiarire alcuni aspetti dell’evoluzione di questa area di studio delle scienze informatiche che, ben presto, diverrà fondamentale per la medicina e la salute pubblica.
Molti medici del futuro, infatti, saranno chiamati a collaborare nella creazione di sistemi informatici basati sull’intelligenza artificiale che affiancheranno o sostituiranno molti operatori della sanità nel loro lavoro quotidiano. Questo è quello che sta per accadere, che ci piaccia o meno.
Ma andiamo ad iniziare…
Molte fondamentali questioni di metodo dell’Intelligenza Artificiale sono state di grande importanza anche in ambito filosofico a partire da molti secoli or sono. Alcuni filosofi come Aristotele, San Tommaso d’Aquino, William di Ockham, René Descartes, Thomas Hobbes e Gotfried W. Leibniz si posero alcune domande fondamentali ed attuali per lo studio dell’Intelligenza Artificiale: “Quali sono le operazioni cognitive fondamentali?”, “Quali caratteristiche dovrebbe possedere un linguaggio formale per essere uno strumento adeguato a descrivere il mondo in modo preciso e non ambiguo?”, “Il ragionamento può essere automatizzato?”. In ogni caso il primo esperimento che ha tentato di rispondere alla domanda “È possibile creare un’Intelligenza Artificiale?” appartiene al ventesimo secolo, quando i primi computer sono stati costruiti.
Certamente la domanda “Quando possiamo dire che un sistema costruito da un essere umano è effettivamente intelligente?” rappresenta il problema chiave dell’intero campo di studio sull’Intelligenza Artificiale. Nel 1950 Alan M. Turing propose una soluzione a questo quesito con l’aiuto del così detto Imitation Game.
Questo Imitation Game è, di fatto, un modo per fare un test operativo di un’ipotetica intelligenza artificiale e può essere descritto in questo modo: supponiamo che un tester umano abbia una conversazione, in contemporanea, sia con un altro essere umano che con un computer; questa conversazione viene eseguita con l’aiuto di un dispositivo che possa rendere impossibile l’identificazione dell’interlocutore come, ad esempio, l’utilizzo di una chat tramite un monitor e di una tastiera; a questo punto il tester umano, dopo un po ‘di tempo, dovrebbe essere in grado di indovinare quali dichiarazioni vengono inviate dall’essere umano e quali sono inviate dal computer.
Secondo Turing, se il tester umano non è in grado di fare questa distinzione, allora l’intelligenza artificiale sotto esame si può definire tale. Rispetto al Test di Turing, va notato che l’intelligenza è, in qualche modo, considerata equivalente alla competenza linguistica e, come vedremo più avanti, tale equivalenza tra intelligenza e competenza linguistica si verifica in diversi modelli di intelligenza artificiale.
Sul piano pratico il 1956 viene considerato l’anno di nascita dell’intelligenza artificiale, poiché in quell’anno avvenne la famosa conferenza del Dartmouth College, ma in realtà fu nel 1955 che il primo sistema di intelligenza artificiale, chiamato Logic Theorist, fu ideato sul piano teorico da Allen Newell, Herbert A. Simon ed implementato da J. Clifford Shaw alla Carnegie Mellon University.
Questo sistema riuscì a dimostrare 40 teoremi tra quelli inclusi nella monografia Principia Mathematica di Alfred N. Whitehead e Bertrand Russell. I creatori del sistema tentarono di pubblicare i loro risultati nel prestigioso Journal of Symbolic Logic, ma vennero rifiutati poiché ritenevano che fossero presentate dimostrazioni già attuate dal altri autori, scotomizzando completamente il fatto che tali dimostrazioni erano state prodotte da un sistema di intelligenza artificiale.
L’ulteriore lavoro di ricerca di Simon, Newell e Shaw fu la creazione di General Problem Solver, un sistema di intelligenza artificiale in grado di affrontare una notevole varietà di problemi formali come integrazione simbolica, ricerca di percorsi nel problema dei ponti di Königsberg di Leonhard Euler, risolvere il puzzle della Torre di Hanoi, ed altro.
Definire il paradigma della simulazione cognitiva secondo cui nei sistemi di intelligenza artificiale dovrebbero essere simulati schemi generali di metodi umani di risoluzione dei problemi, fu un risultato metodologico della loro ricerca. Questo paradigma è un’ipotesi che sta alla base di progetti di ricerca avanzati anche nelle moderni sistemi di architetture cognitive. Mentre Newell, Simon e Shaw costruivano i loro sistemi sulla base della simulazione cognitiva, John McCarthy, un professore del MIT, condusse ricerche in un’altra area cruciale dell’intelligenza artificiale. Nel 1958 presentò un importante articolo al Symposium on the Mechanization of Mental Processes, organizzato a Teddington, dove proponeva di risolvere i problemi di senso comune mediante l’utilizzo di modelli di ragionamento basati sulla logica formale. A quel tempo un’idea del genere sembrava davvero bizzarra ed difficile da sostenere, infatti alcune critiche sostennero che l’inferenza basata sulla logica deduttiva non poteva rappresentare un modello adeguato per il ragionamento umano basato sul “buon senso”.
Queste critiche non scoraggiarono McCarthy dalla rivoluzionaria idea di usare la logica matematica nell’Intelligenza Artificiale. Egli continuò la ricerca di un linguaggio di programmazione basato sulla logica per l’implementazione di sistemi di intelligenza artificiale. McCarthy, nel suo lavoro, è stato indubbiamente ispirato dal Lambda Calculus (λ-calculus), che fu introdotto da Alonzo Church e Stephen C. Kleene negli anni ’30. Le ricerche di John McCarthy culminarono nella creazione del linguaggio di programmazione Lisp, tra il 1958 ed il 1960. Il Lisp ed i suoi dialetti, come Scheme e Common Lisp, sono ancora utilizzati per la costruzione di alcuni sistemi di intelligenza artificiale.
Invece, agli inizi degli anni ’70, nuove ricerche basate su di un secondo approccio al problema, definito anche First-Order Logic, FOL, sempre all’interno del paradigma basato sulla logica di McCarthy, portarono alla creazione del secondo grande linguaggio dedicato alla programmazione di sistemi intelligenti, il Prolog, ad opera di Alain Colmerauer e Philippe Roussel, dell’Università di Aix-Marseille II.
Infine, verso la metà degli anni ’60, si sviluppò un terzo approccio simbolico all’intelligenza artificiale, denominato knowledge-based approach, che derivò dall’implementazione del sistema esperto Dendral condotta da Edward Feigenbaum e Joshua Lederberg, della Stanford University.
L’identificazione di molecole organiche sconosciute sulla base di un’analisi dei loro spettri di massa e la creazione di una base di conoscenza della chimica era l’obiettivo del sistema Dendral, che fu molto utile per i chimici organici. L’esperienza acquisita da Feigenbaum lo condusse a introdurre un nuovo paradigma dell’intelligenza artificiale che differiva sia dalla simulazione cognitiva, sia dall’approccio basato sulla logica.
Questo nuovo paradigma era definito da due principali caratteristiche (1) non affrontare problemi generali ma focalizzarsi su aree ristrette di intervento (2) dotare un sistema intelligente di una adeguata base di conoscenza estrapolata dagli esperti umani su quel dato argomento. Un cosiddetto motore inferenziale avrebbe dovuto operare in maniera logica sulla base di conoscenza creata. Sistemi costruiti su queste caratteristiche presero il nome di Sistemi Esperti ed iniziarono ad essere utilizzati, negli anni a venire, in modo particolare per le discipline mediche. Il sistema implementato secondo queste caratteristiche, dovrebbe essere incorporato in un ambiente in cui i reali esperti umani risolvono i problemi. Il test consiste nel verificare se questo sistema simula bene gli esperti umani e se, con il tempo, potrà essere in grado di sostituirli completamente. Se così avverrà, allora significa che il sistema funziona correttamente. In qualche maniera tutto questo sarebbe analogo alla simulazione cognitiva, in cui il sistema dovrebbe simulare il comportamento intelligente di un essere umano.
Tutti questi successi, su piani differenti, spinsero Newell e Simon a formulare nel 1976 l’ipotesi della cosiddetta Strong Artificial Intelligence (intelligenza artificiale “forte”), chiamata anche Physical Symbol System Hypotesis, che consisteva in un insieme di elementi chiamati “simboli” che sono usati dal sistema per costruire strutture simboliche chiamate espressioni e un insieme di processi per la loro modifica, riproduzione e distruzione. In altre parole, il sistema sarebbe in grado di trasformare un certo insieme di espressioni alla stregua di un essere umano.
Questa visione radicale di un sistema in grado di manipolare strutture simboliche venne criticato duramente da John R. Searle nel suo famoso lavoro “Minds, Brains and Programs” pubblicato nel 1980. Searle proponeva un approccio basato sulla Weak Artificial Intelligence (intelligenza artificiale “debole”), più asservita al senso di inferiorità rispetto alla mente umana, contrapposta alla versione Strong, definita in qualche maniera esorbitante ed irrealistica nel suo tentativo di sostituire la mente umana. Questo dibattito, in qualche misura, perdura sino ai giorni nostri.
Per sostenere questa sua ipotesi, Searle propose un esperimento mentale, che sfidava anche il test di Turing. Una delle varie versioni di questo esperimento, chiamata “la stanza cinese”, può essere descritta nel modo seguente: supponiamo che un madrelingua inglese, che non parla cinese, sia chiuso in una stanza; nella prima fase dell’esperimento riceve pezzi di carta con caratteri cinesi e gli viene chiesto di rispondere, ma egli non capisce queste note. Fortunatamente, nella stanza c’è un libro che contiene le istruzioni su come rispondere ai caratteri cinesi scrivendo altri caratteri cinesi su un pezzo di carta. Quindi, ogni volta che riceve un pezzo di carta con caratteri cinesi, “produce” una risposta ad esso secondo queste istruzioni presenti in questo libro.
Nella seconda fase dell’esperimento riceve pezzi di carta con frasi inglesi, ad esempio alcune domande, e gli viene chiesto di rispondere a loro ed egli lo fa usando le sue proprie capacità. Supponiamo a questo punto che la qualità delle risposte in entrambi i casi sia la stessa, ora, Searle pone la domanda “C’è qualche differenza tra le due fasi dell’esperimento?”, e la risposta sarà, sì, infatti nella prima fase l’uomo nella stanza non capisce cosa sta facendo, mentre nella seconda fase lo capisce perfettamente. Ecco spiegata in sintesi la critica di Searle alla versione Strong (forte) dell’intelligenza artificiale rispetto a quella Weak (debole).
Si può facilmente notare che, a partire dal test di Turing, nella storia dell’Intelligenza Artificiale si attribuisce un immenso significato al linguaggio naturale ed alla capacità di un ipotetico sistema di utilizzarlo. Al riguardo tre teorie linguistiche sono particolarmente importanti nella storia dell’intelligenza artificiale: (1) la teoria della grammatica generativa di Noam Chomsky (alla base della mathematical linguistics, costruita sul principio di esistenza di una grammatica universale che viene parametrata quando la mente di un bambino viene esposta ad un linguaggio), (2) la teoria della dipendenza concettuale di Roger Schank (che ebbe come risultato finale la costruzione di sistemi come ELIZA che simulava uno psicoterapeuta, o PAM che era in grado di interpretare semplici storie) (3) la linguistica cognitiva di George Lakoff (che ipotizzava la possibilità di attuare una “mappatura” tra il mondo reale ed un sistema simbolico all’interno di un sistema informatico).
Arriviamo, infine, ai cosiddetti Connectionis Models, nei quali i fenomeni mentali sono modellati come processi emergenti che si verificano in reti costituite da componenti elementari. Questi approcci hanno una lunga tradizione nella storia dell’intelligenza artificiale. Il primo modello di un neurone artificiale che poteva essere usato come componente elementare di una rete di questo tipo fu definito da Warren S. McCulloch e Walter Pitts nel 1943. Le cosiddette “reti neurali”, sono utilizzate per simulare i processi che si verificano nelle reti neurali biologiche in un cervello organico al fine di simulare i correlati cognitivi e di pensiero. Esse consistono in componenti funzionali semplici interconnessi tra loro, che elaborano le informazioni in parallelo. Da un punto di vista funzionale una rete neurale è una sorta di “black box” che può essere addestrata per apprendere risposte adeguate sulla base di vari stimoli a cui viene sottoposta.
Tale fase di “apprendimento” consiste nel modificare alcuni parametri matematici della struttura di programmazione della rete neurale stessa.
Di conseguenza questa “conoscenza” non parte da una base impostata da esperti umani ma è, in qualche modo, codificata in una struttura dotata di parametri che si evolve in maniera autonoma. Pertanto, da questo punto di vista, un approccio connessionista differisce completamente da un approccio simbolico. Come si può bene immaginare, le discussioni più feroci e “più calde” sull’intelligenza artificiale negli ultimi anni hanno avuto luogo tra i sostenitori di questi due approcci diversi.
Negli anni ’70 ed ’80 molti successi portarono credito alla teoria delle reti neurali. Nel 1972 Teuvo Kohonen creò la Associative Network; tre anni dopo Kunihiko Fukushima, costruí il Cognitrone, una rete neurale multi strato; Nel 1982 altri due importanti modelli di reti neurali vennero costruiti: il Hopfield Recurrent Network e il Self-Organizing Maps, SOM.
I ricercatori aderenti alle reti neurali artificiali hanno ipotizzato che simulare la natura al suo livello biologico sia un buon principio metodologico per la costruzione di sistemi di intelligenza artificiale. Essi hanno cercato di simulare il cervello in entrambi i suoi aspetti anatomico / strutturale e fisiologico / funzionale. Una simulazione della natura nel suo aspetto evolutivo è un paradigma di base per la definizione di modelli ispirati alla biologia, che includono un importante gruppo di sistemi di intelligenza artificiale chiamati a “calcolo evolutivo”.
Questi sistemi sono utilizzati nell’area cruciale della ricerca di una soluzione ottimale ad un problema. I principi fondamentali di questo approccio includono la generazione e l’analisi di molte soluzioni potenziali in parallelo, il trattamento di una serie di soluzioni potenziali come una popolazione di individui e l’utilizzo di operazioni su questi individui, mediante soluzioni analoghe alle operazioni di evoluzione biologica tipiche della genetica come il crossover, la mutazione e la selezione naturale.
Un consiglio finale: se volete leggere uno dei migliori libri divulgativi sull’Intelligenza Artificiale ed i suoi impatti sulla nostra Società, medicina, psichiatria e psicologia, allora vi consiglio “Vita 3.0” di Max Tegmark. Potete acquistarlo al miglior prezzo su Amazon.it:This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Ultimi post di Valerio Rosso (vedi tutti)
- Neurobiologia del Piacere e della Felicità - 27/05/2023
- Brain Restart: i migliori PSICONUTRACEUTICI - 17/05/2023
- Psichiatria per Psicologi: il miglior libro per superare esami e concorsi. - 07/05/2023
Salve dottore,
È ora che l’I.A. entri nella pratica clinica non sostituendo ma affiancando il lavoro dello psichiatra che avrebbe un valido supporto per formulare diagnosi corrette e terapie più efficaci.
“Thinking out of the box,sharing and caring”Marion Leboyer
Grazie davvero!!!! ✌️?
Complimenti per l’articolo, molto interessante.
Cita anche il cognitrone di Fukushima, se dovesse interessarle, ho scritto epubblicato una monografia sull’argomento.
Complimenti ancora,
Francesco
Grazie sel commento! Si, certo mi interesserebbe…. dove posso reperirla?